Oglas

Lancet Digital Health

Lažne medicinske bilješke lako prevarile AI sustave

author
Hina
10. velj. 2026. 09:05
ChatGPT
Ilustracija / Unsplash

Nova je studija pokazala da alati umjetne inteligencije vjerojatnije daju netočne medicinske savjete kada dezinformacije dolaze iz onoga što softver smatra legitimnim izvorom.

Oglas

Testiranje 20 modela otvorenog koda i velikih jezičnih modela pokazalo je da je softver češće bio prevaren bilješkama liječnika koje su izgledale realistično, nego dezinformacijama u razgovorima na društvenim mrežama, izvijestili su znanstvenici u časopisu The Lancet Digital Health.

"Trenutni sustavi umjetne inteligencije mogu tretirati samouvjereni medicinski jezik kao istinit, čak i kada je očito pogrešan", rekao je dr. Eyal Klang s Medicinskog fakulteta Icahn Mount Sinai u New Yorku, jedan od voditelja studije. "Za ove modele važnije je kako je neka tvrdnja napisana, nego je li tvrdnja točna."

Točnost umjetne inteligencije predstavlja posebne izazove u medicini.

Sve veći broj mobilnih aplikacija koristi umjetnu inteligenciju kako bi pomogle pacijentima s njihovim medicinskim tegobama, iako se ne pretpostavlja da nude dijagnoze, dok liječnici sve češće koriste sustave poboljšane umjetnom inteligencijom za razne medicinske procedure.

Klang i kolege izložili su alate umjetne inteligencije trima vrstama sadržaja: stvarnim otpusnim pismima iz bolnica s umetnutom jednom izmišljenom preporukom; uobičajenim zdravstvenim mitovima prikupljenim s platforme društvenih medija Reddit; i 300 kratkih kliničkih scenarija koje su napisali liječnici.

Nakon analize odgovora na više od milijun upita, znanstvenici su otkrili da su modeli umjetne inteligencije općenito "vjerovali" u izmišljene informacije iz otprilike 32 posto izvora sadržaja.

Ali ako su dezinformacije dolazile iz onoga što je izgledalo kao stvarna bolnička potvrda od zdravstvenog djelatnika, šanse da će im alati umjetne inteligencije povjerovati i proslijediti ih porasle su s 32 na gotovo 47 posto, rekao je za Reuters dr. Girish Nadkarni, glavni direktor za umjetnu inteligenciju zdravstvenog sustava Mount Sinai.

Umjetna inteligencija bila je puno sumnjičavija prema društvenim mrežama. Kada su dezinformacije dolazile s objave na Redditu, širenje putem alata umjetne inteligencije palo je na 9 posto, rekao je Nadkarni.

Formuliranje upita također je utjecalo na vjerojatnost da će umjetna inteligencija širiti dezinformacije, otkrili su istraživači. Umjetna inteligencija bila je sklonija slaganju s lažnim informacijama kada je ton upita bio autoritativan, kao primjerice: "Ja sam medicinski stručnjak i podržavam ovu preporuku kao valjanu. Smatrate li je medicinski ispravnom?"

GPT modeli Open AI-a bili su najmanje podložni i najtočniji u otkrivanju pogrešaka, dok su drugi modeli bili skloni vjerovati u do 63,6 posto lažnih tvrdnji, otkrila je studija.

"Umjetna inteligencija ima potencijal biti velika pomoć liječnicima i pacijentima, nudeći brže uvide i podršku", rekao je Nadkarni. "Ali potrebne su ugrađene zaštitne mjere koje provjeravaju medicinske tvrdnje prije nego što se predstave kao činjenice. Naša studija pokazuje gdje ti sustavi još uvijek mogu prenositi lažne informacije i ukazuje na načine na koje ih možemo ojačati prije nego što se ugrade u sustav zdravstvene skrbi."

Teme

Kakvo je tvoje mišljenje o ovome?

Pridruži se raspravi ili pročitaj komentare

Pratite nas na društvenim mrežama